Igen, az AI "veszélyes", de…
- IT biztonság
- /
- 2019-08-05
Az Európai Bizottság - etikus gépi mélytanulás kérdéseit vizsgáló – SHERPA projekt keretében egy olyan vízipuskát készítettek, mely az arc előre megadott biometrikus jellemzői alapján, egy MI (mesterséges intelligencia) segítségével választja ki, kit kell egy kevéssé felfrissíteni (lelocsolni). Az "intelligens vízipuska" célja, hogy felhívja az emberek figyelmét az MI-k nem megfelelő feltanításának és alkalmazásának (diszkriminációs) veszélyeire.
A SHERPA team gyakorlati kutatásai során számos területen vizsgálta az MI-k alkalmazását és aggodalmukat fejezték ki, mely leginkább a feltanításhoz használt adatok egyoldalúságára és a rendszerek feltanításának átláthatóságára vonatkozott.
Nem régiben egy másik kísérlet sült el balul, ahogy az MIT és az IBM Watson AI Lab művészi portré készítő applikációja fehérítette ki a nem "kaukázusi" személyek arcát. "Eléggé el nem ítélhető" módon, az applikáció MI-jének feltanításához használt 15 000 kép zöme európai festőktől származott, akik európai embereket ábrázoltak, így az MI kifehérítette azokat is akiket nem illett volna.
Forrás: Vice Motherboard
A SHERPA team gyakorlati kutatásai során számos területen vizsgálta az MI-k alkalmazását és aggodalmukat fejezték ki, mely leginkább a feltanításhoz használt adatok egyoldalúságára és a rendszerek feltanításának átláthatóságára vonatkozott.
Nem régiben egy másik kísérlet sült el balul, ahogy az MIT és az IBM Watson AI Lab művészi portré készítő applikációja fehérítette ki a nem "kaukázusi" személyek arcát. "Eléggé el nem ítélhető" módon, az applikáció MI-jének feltanításához használt 15 000 kép zöme európai festőktől származott, akik európai embereket ábrázoltak, így az MI kifehérítette azokat is akiket nem illett volna.
Forrás: Vice Motherboard